检测人类相互作用对于人类行为分析至关重要。已经提出了许多方法来处理人对物体交互(HOI)检测,即检测人和物体在一起和分类交互类型的图像中检测。然而,人类对人类的相互作用,例如社会和暴力互动,通常不会在可用的会议训练数据集中考虑。由于我们认为这些类型的互动在分析人类行为时,我们不能从海内忽略和去相关,我们提出了一个新的互动数据集来处理两种类型的人类相互作用:人对人类或对象(H2O)。此外,我们介绍了一个新的动词分类,旨在更接近人体态度与周围的相互作用目标的描述,更加独立于环境。与某些现有数据集不同,我们努力避免在高度取决于目标类型时定义同义词,或者需要高水平的语义解释。由于H2O数据集包括使用此新分类系统注释的V-Coco映像,图像显然包含更多的交互。这可能是HOI检测方法的问题,其复杂性取决于人数,目标或交互的数量。因此,我们提出了空灵博(通过仅寻找一次),一种有效的主题的单射方法,用于检测一个向前通过的所有交互,恒定的推断时间与图像内容无关。此外,此多任务网络同时检测所有人员和对象。我们展示了如何为这些任务共享网络不仅可以节省计算资源,而且还可通过协作提高性能。最后,Diabolo是一种强大的基线,用于H2O交互检测的新挑战,因为它在Hoi DataSet V-Coco上训练和评估时表现出所有最先进的方法。
translated by 谷歌翻译